简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » AI教父示警:关电源没用 杀手机器人10年内成真

AI教父示警:关电源没用 杀手机器人10年内成真

文章来源: 中时电子报 于 2024-03-22 13:44:29 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数

加拿大多伦多大学名誉教授辛顿(Geoffrey Hinton)有“AI教父”之称,他在接受日媒采访时,谈及人工智能(AI)的威胁。他说,很多人以为,要防止AI失控,只要关掉电源开关就可以,“但超越人类智慧的AI可以用语言操纵我们。或许会试图说服我们不要关掉开关”。

辛顿是“深度学习”(Deep Learning)和神经网络(模仿人脑的数学模型)的先驱,其研究帮助奠定了AI发展的基础。2023年,辛顿突然从已工作10多年的美国谷歌辞职,开始谈论AI的威胁。

《日本经济新闻》22日刊出了对辛顿的专访内容。辛顿表示,如果给AI设定目标,作为解决对策,它可能会找出对人类不利的方法。比方说,假设向AI下达遏制气候变化的指令。AI会意识到为了达到目的而有必要将人类清除,他担心真的会付诸实施的风险。

辛顿指出,今后还可能会出现不同的AI相互竞争的局面。例如,如果AI之间发生数据中心等资源的争夺,这将是一个像生物体一样推动进化的过程。面对透过竞争变得更聪明的AI,我们人类将落在后面。

他还预测,未来10年内将出现自主杀死人类的机器人武器(杀手机器人)。他说,机器人武器或许迟早也会被限制,但是,这可能要等到真正在战场上被使用、人类认识到会带来多么悲惨的结局后才能实现。

辛顿又谈到,如果从主观经验这一角度进行说明,他认为AI可以拥有和人类一样的感觉。他说,人类也会经历与客观事实不符的事件。例如我喝了很多酒,早上醒来时,眼前因为幻觉而出现了粉红色的小象。我不会相信小象的存在,而是会认为自己的感知系统没有正常工作,因此这只是内在的体验。

他说,透过照相机收集视觉讯息的AI也可以产生同样的情况。例如,将物体放在相机前,用棱镜使光线弯曲,形成产生物体在远处的错觉。如果对话式AI解释称感知系统因为棱镜而不能正常工作,那么我们就可以说它有着和人类一样的感觉。

查看评论(0)

24小时热点排行

约炮外国电竞手曝不雅片 中国女生遭退学 挨批有损国格
美国特勤局老爸教女儿安全守则 “绝不做的5件事”
“南京红姐”红到日本!玉照惊呆网民 网友总结保命三要素
Meta离职大牛怒揭黑幕:内斗 抢功 末位裁员 全是毒瘤
中国女数学家英语演说 意外成“小粉红”攻击目标

24小时讨论排行

中国学者:寄望“二次西安事变”统一台湾
印度航空坠机事件:为何驾驶舱录音让事情更加扑朔迷离
美6月关税年增3倍! 联邦收入由亏转盈270亿美元
吴瑛教授儿女起诉:NIH和西北大学联手迫害她自杀
生理盐水替代疫苗 医生被誉“美国英雄” 司法部撤指控
如想取得美国签证 国务院:社媒帐号必须“公开”
加萨平民领物资"当场遭以军爆头"!医院泪诉:24人被击毙
时隔1年!川普遇刺案官方报告出炉 多项惊人内幕曝光
爱泼斯坦案致MAGA分裂?川普吁团结 马斯克再发难
突袭大麻农场掀争议:孩子摘草莓?与儿童性侵犯同住?
全美关注!总统有无权剥夺在美国出生公民的国籍?
川普开呛普丁「令人失望」,宣布援乌爱国者飞弹
豪砸13亿美元!美军"爱国者飞弹"采购量拟增至4倍
纽时观点:川普内阁—长得好看的笨蛋依然是笨蛋
律师谈“出轨Zeus女生被学校开除”,提出三大争议点
美国:8中国留学生诈骗老人逾千万 最高20年刑期
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

文学城新闻
切换到网页版

AI教父示警:关电源没用 杀手机器人10年内成真

中时电子报 2024-03-22 13:44:29

加拿大多伦多大学名誉教授辛顿(Geoffrey Hinton)有“AI教父”之称,他在接受日媒采访时,谈及人工智能(AI)的威胁。他说,很多人以为,要防止AI失控,只要关掉电源开关就可以,“但超越人类智慧的AI可以用语言操纵我们。或许会试图说服我们不要关掉开关”。

辛顿是“深度学习”(Deep Learning)和神经网络(模仿人脑的数学模型)的先驱,其研究帮助奠定了AI发展的基础。2023年,辛顿突然从已工作10多年的美国谷歌辞职,开始谈论AI的威胁。

《日本经济新闻》22日刊出了对辛顿的专访内容。辛顿表示,如果给AI设定目标,作为解决对策,它可能会找出对人类不利的方法。比方说,假设向AI下达遏制气候变化的指令。AI会意识到为了达到目的而有必要将人类清除,他担心真的会付诸实施的风险。

辛顿指出,今后还可能会出现不同的AI相互竞争的局面。例如,如果AI之间发生数据中心等资源的争夺,这将是一个像生物体一样推动进化的过程。面对透过竞争变得更聪明的AI,我们人类将落在后面。

他还预测,未来10年内将出现自主杀死人类的机器人武器(杀手机器人)。他说,机器人武器或许迟早也会被限制,但是,这可能要等到真正在战场上被使用、人类认识到会带来多么悲惨的结局后才能实现。

辛顿又谈到,如果从主观经验这一角度进行说明,他认为AI可以拥有和人类一样的感觉。他说,人类也会经历与客观事实不符的事件。例如我喝了很多酒,早上醒来时,眼前因为幻觉而出现了粉红色的小象。我不会相信小象的存在,而是会认为自己的感知系统没有正常工作,因此这只是内在的体验。

他说,透过照相机收集视觉讯息的AI也可以产生同样的情况。例如,将物体放在相机前,用棱镜使光线弯曲,形成产生物体在远处的错觉。如果对话式AI解释称感知系统因为棱镜而不能正常工作,那么我们就可以说它有着和人类一样的感觉。